在现代建筑基础设施中,由于低成本传感器的大数据可用性以及深度学习等先进的建模工具,因此促进自适应和无监督的数据驱动的健康监测系统的机会正在受欢迎。本文的主要目的是将深度神经网络与双向短期内存结合和涉及瞬时频率和光谱峰度的先进统计分析,以开发出来自声发射事件(裂缝)的拉伸,剪切和混合模式的准确分类工具。我们调查了有效的事件描述符,以捕获不同类型模式的独特特征。实验结果的测试证实,该方法在不同的破解事件中实现了有希望的分类,并可能影响结构健康监测(SHM)技术的未来设计。这种方法有效地对初始损害进行分类,以92%的精度进行分类,这是有利的计划维护。
translated by 谷歌翻译
我们介绍并讨论了一个运行时体系结构,该架构将感官数据和分类器与基于逻辑的决策系统集成在一起,并在电子健康系统的背景下,用于康复神经运动障碍儿童。在此应用程序中,儿童以游戏的形式执行康复任务。该系统的主要目的是从可用的传感器和分类器(例如,眼镜跟踪器,运动传感器,情感识别技术)中得出一组儿童当前的认知和行为表现(例如参与,注意力,任务准确性)的参数。 )并做出相应的决定。这些决策通常旨在通过在注意力较低时触发适当的重新参与刺激,改变游戏或使孩子对任务失去兴趣时的困难来改善孩子的表现,因为它太容易了。除了对情绪识别和头部姿势估计的最新技术外,我们还使用了事件计算的概率和认知逻辑编程方言的运行时变体,称为认识论概率概率事件。特别是,该符号框架的概率组成部分允许与机器学习技术的自然接口。我们概述了体系结构及其组件,并通过讨论运行的示例和实验来展示其一些特征。正在考虑逻辑编程理论和实践(TPLP)的出版物。
translated by 谷歌翻译
在人类神经科学中,机器学习可以帮助揭示与受试者行为相关的较低维度的神经表现。但是,最新的模型通常需要大型数据集进行训练,因此容易过度拟合人类神经影像学数据,这些数据通常只有很少的样本但很多输入尺寸。在这里,我们利用了这样一个事实,即我们在人类神经科学中寻求的特征恰恰是与受试者行为相关的事实。因此,我们通过分类器增强(Trace)开发了与任务相关的自动编码器,并测试了其与两个严重截断的机器学习数据集的标准自动编码器相比,它提取与行为相关的可分离表示的能力。然后,我们在fMRI数据上评估了两个模型,受试者观察到动物和物体。 Trace几乎单方面优于自动编码器和原始输入,在发现“清洁剂”,与任务相关的表示方面最多提高了分类准确性,并提高了三倍。这些结果展示了Trace获得与人类行为有关的各种数据的潜力。
translated by 谷歌翻译
当神经网络失去先前从不同分布的样本(即新任务)培训一组样本时,发生灾难性遗忘(CF)。现有方法在减轻CF方面取得了显着的结果,尤其是在称为任务增量学习的情况下。但是,这种情况是不现实的,并且已经完成了有限的工作以在更现实的情况下取得良好的结果。在本文中,我们提出了一种称为Centroid匹配的新型正则化方法,该方法受到元学习方法的启发,通过在神经网络产生的功能空间中操作来打击CF,在需要较小的记忆足迹的同时,取得了良好的结果。具体而言,该方法使用神经网络产生的特征向量直接对样品进行了分类,通过将这些向量与代表当前任务中的类或所有任务的质心匹配,直到该点。质心匹配速度比竞争基线更快,并且可以通过在过去的任务结束时保留模型产生的嵌入式空间之间的距离,并且可以利用它有效地减轻CF,而当前生产的距离则可以实现高精度的方法在所有任务上,在轻松场景上操作时,或不使用外部内存,或者将小型内存用于更现实的记忆。广泛的实验表明,匹配的质心在多个数据集和方案上取得了准确的提高。
translated by 谷歌翻译
在本文中,我们介绍了概率打字的自然扣除计算TPTND,旨在推理和获得概率计算过程的可信赖性能,例如那些基本的当前AI应用程序。TPTND中的衍生性被解释为从给定的分类分布中提取具有一定频率的$ n $输出样本的过程。我们将框架内的信任正式化为对这种频率和预期概率之间距离的假设测试形式。演算的主要优点是呈现这种可信度可检查的概念。我们介绍了TPTND的证明理论语义,并说明了结构性和元看属性,特别关注安全性。我们激励其在自动分类算法验证中的使用。
translated by 谷歌翻译
Spatial audio methods are gaining a growing interest due to the spread of immersive audio experiences and applications, such as virtual and augmented reality. For these purposes, 3D audio signals are often acquired through arrays of Ambisonics microphones, each comprising four capsules that decompose the sound field in spherical harmonics. In this paper, we propose a dual quaternion representation of the spatial sound field acquired through an array of two First Order Ambisonics (FOA) microphones. The audio signals are encapsulated in a dual quaternion that leverages quaternion algebra properties to exploit correlations among them. This augmented representation with 6 degrees of freedom (6DOF) involves a more accurate coverage of the sound field, resulting in a more precise sound localization and a more immersive audio experience. We evaluate our approach on a sound event localization and detection (SELD) benchmark. We show that our dual quaternion SELD model with temporal convolution blocks (DualQSELD-TCN) achieves better results with respect to real and quaternion-valued baselines thanks to our augmented representation of the sound field. Full code is available at: https://github.com/ispamm/DualQSELD-TCN.
translated by 谷歌翻译
Catastrophic forgetting (CF) happens whenever a neural network overwrites past knowledge while being trained on new tasks. Common techniques to handle CF include regularization of the weights (using, e.g., their importance on past tasks), and rehearsal strategies, where the network is constantly re-trained on past data. Generative models have also been applied for the latter, in order to have endless sources of data. In this paper, we propose a novel method that combines the strengths of regularization and generative-based rehearsal approaches. Our generative model consists of a normalizing flow (NF), a probabilistic and invertible neural network, trained on the internal embeddings of the network. By keeping a single NF throughout the training process, we show that our memory overhead remains constant. In addition, exploiting the invertibility of the NF, we propose a simple approach to regularize the network's embeddings with respect to past tasks. We show that our method performs favorably with respect to state-of-the-art approaches in the literature, with bounded computational power and memory overheads.
translated by 谷歌翻译
在20世纪80年代和20世纪90年代的生物控制论中发表的几篇论文中,Kawato及其同事提出了计算模型,说明在小脑中如何获得内部模型。这些模型后来通过猴子和涉及人类的神经影像学实验支持神经生理学实验。这些早期研究影响了神经科学从基本,感官电机控制到更高的认知功能。与内部模型相关的最令人困惑的谜团之一是了解使动物能够在很少的试验中学习大型问题的神经机制。意识和元认知 - 监测自己思想的能力可能是解决这个谜的一部分。基于对过去20年来的文学审查,在这里,我们提出了一个计算神经科学模型的元动态。该模型包括并行和分层,生成逆模型对的模块化分层加强学习架构。在前额cortex中,一种称为“认知现实监测网络”(CRMN)(CRMN)的分布式执行网络(CRMN)在感知和行动中协调了生成逆模型对的意识参与。基于生成和逆模型的计算之间的不匹配,以及奖励预测误差,CRMN计算在感知,动作和加强学习中的选择和学习对的“责任信号”。高责任信号被赋予最佳捕获外部世界的对,这是在运动中称职(小错配),并且能够加强学习(小奖励预测误差)。 CRMN选择具有更高责任信号作为元记高对象的对,并且意识由所有对责任信号的熵决定。
translated by 谷歌翻译
In this paper, we investigate the degree of explainability of graph neural networks (GNNs). Existing explainers work by finding global/local subgraphs to explain a prediction, but they are applied after a GNN has already been trained. Here, we propose a meta-learning framework for improving the level of explainability of a GNN directly at training time, by steering the optimization procedure towards what we call `interpretable minima'. Our framework (called MATE, MetA-Train to Explain) jointly trains a model to solve the original task, e.g., node classification, and to provide easily processable outputs for downstream algorithms that explain the model's decisions in a human-friendly way. In particular, we meta-train the model's parameters to quickly minimize the error of an instance-level GNNExplainer trained on-the-fly on randomly sampled nodes. The final internal representation relies upon a set of features that can be `better' understood by an explanation algorithm, e.g., another instance of GNNExplainer. Our model-agnostic approach can improve the explanations produced for different GNN architectures and use any instance-based explainer to drive this process. Experiments on synthetic and real-world datasets for node and graph classification show that we can produce models that are consistently easier to explain by different algorithms. Furthermore, this increase in explainability comes at no cost for the accuracy of the model.
translated by 谷歌翻译
图表表示学习已经成为许多情景中的无处不在的组成部分,从社会网络分析到智能电网的能量预测。在几个应用程序中,确保关于某些受保护属性的节点(或图形)表示的公平对其正确部署至关重要。然而,图表深度学习的公平仍然在探索,很少有解决方案。特别地,在若干真实世界图(即同声源性)上相似节点对簇的趋势可以显着恶化这些程序的公平性。在本文中,我们提出了一种新颖的偏见边缘辍学算法(Fairdrop)来反击精神剧并改善图形表示学习中的公平性。 Fairdrop可以在许多现有算法上轻松插入,具有高效,适应性,并且可以与其他公平诱导的解决方案结合。在描述了一般算法之后,我们在两个基准任务中展示其应用,具体地,作为用于生产节点嵌入的随机步道模型,以及用于链路预测的图形卷积网络。我们证明,所提出的算法可以成功地改善所有型号的公平,直到精度小或可忽略的降低,并与现有的最先进的解决方案相比。在一个消融研究中,我们证明我们的算法可以灵活地在偏置公平性和无偏见的边缘辍学之间插入。此外,为了更好地评估增益,我们提出了一种新的二元组定义,以测量与基于组的公平度量配对时的链路预测任务的偏差。特别是,我们扩展了用于测量节点嵌入的偏差的指标,以考虑图形结构。
translated by 谷歌翻译